jOas wEb Sci

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - Assimilation de données

Fil des billets

jeudi, novembre 15 2007

Méthode d'assimilation - Le filtre de Kalman (KF)

Filtre de Kalman - KF

En 1960-61, Kalman et Bucy ont décrit une solution récursive pour des problèmes de filtrage linéaire de données discrète. Cette solution est depuis nommée filtre de Kalman. Ce filtre peut être appréhendé comme une extension du BLUE pour laquelle l'état analysé pour une étape donnée définit l'ébauche à l'étape d'analyse suivante. Outre ceci, le filtre de Kalman incorpore un modèle d'évolution de l'état du système entre deux instants \[t_i\] et \[t_{i+1\].

Lire la suite...

Méthode d'assimilation - Interpolation Optimale (OI)

L'interpolation optimale (Gandin, 1963 ; Lorenc, 1981 ou Daley, 1991), notée OI, est une simplification algébrique du BLUE présenté précédemment. L'équation (009) est décomposée en un système d'équations résolvant cette équation pour chaque variable du modèle. L'hypothèse fondamentale de cette méthode est que pour chaque variable du modèle en chaque point de grille, un nombre réduit d'observations est pris prend en compte pour effectuer l'analyse. L'approximation vient donc de la technique de sélection d'une liste de données \[p_v\] utiles pour l'analyse de chaque variable \[\mathbf{x}_v\] en chaque point de grille. Le calcul de \[\mathbf{K}\] se fait ligne par ligne en n'utilisant qu'un nombre réduit d'observations voisines de chaque point de grille (Fig. 4).

Interpolation optimale
Fig. 4 : Représentation schématique de la sélection des observations au voisinage de deux points. Les analyses en ces deux points n'utilisent pas les mêmes observations bien qu'ils soient proches. Les champs analysé n'est donc généralement pas continu. De plus, le coût de l'analyse augmente avec la taille du voisinage utilisé.

Lire la suite...

Interpolation statistiques - L'exemple du naufragé

Pour illustrer les différents concepts abordés, un exemple sera très utile. Supposons qu'à la suite d'une tempête, un marin naviguant en suivant la ligne de côtes, s'échoue sur des récifs. Le bateau étant bien équipé, il relève sa dernière position sur le GPS et monte dans le canot de sauvetage. Malheureusement, ce canot est dépourvu de rames. Les vagues et le vent l'emportent donc loin de son navire échoué. Définissons un référentiel de tel sorte que l'axe x soit parallèle à la côte et l'axe y lui soit perpendiculaire. La position du navire échoué dans ce référentiel est défini comme le point de référence de coordonnées (0,0). La position du canot de sauvetage est donc connu à l'instant \[ t_0=0 \]. Un peu plus tard, à l'instant t, le naufragé estime au jugé la distance qui le sépare de la côte. Le naufragé sait que son estimation est empreinte d'une erreur et il estime la variance de cette erreur \[s^o\]. Il se rappelle, par ailleurs, la position de l'épave et sait que le canot de sauvetage a dérivé malgré l'absence de courants marins prédominants dans cette région. Il suppose donc que la probabilité qu'il se trouve maintenant à la position \[(u^b,v^b)\] suit une loi normale de variance \[s^b\] qui dépend linéairement du temps écoulé. Après réflexion, il estime aussi que le processus de mesure au jugé n'est pas corrélé à celui de la dérive du canot. Il résume donc sa situation en faisant un schéma (Fig. 3).

La géométrie de la situation du naufragé
Fig. 3 : La géométrie de la situation du naufragé.

Lire la suite...

Interpolation statistiques - Approche variationnelle

Équivalence avec le BLUE

En reprenant exactement les mêmes hypothèses que pour le BLUE, il est possible de résoudre le problème par une approche variationnelle. Pour cela, il faut définir une fonctionnelle :

(023)
\[J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)\mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}\mathbf{x})^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \],

appelée fonction coût et qui a pour caractéristique d'être quadratique en \[ \mathbf{x} \]. Comme, de plus, les matrices \[\mathbf{B}\] et \[ \mathbf{R} \] sont définies positives, alors cette fonction coût est convexe et possède un seul minimum qui peut être estimé par son gradient :

(024)
\[ \nabla J(\mathbf{x}) = \mathbf{B}^{-1}(\mathbf{x}-\mathbf{x}^b)-\mathbf{H}^T\mathbf{R}^{-1}(\mathbf{y}^o-\mathbf{H}\mathbf{x}) \].

Lire la suite...

Interpolation statistique - Propriétés du BLUE

Formule de Sherman-Morrison-Woodbury

Le gain optimal est, en général, donné sous la forme de l'Eq. (015). Cependant, il peut être réécrit sous la forme :

\[\mathbf{K}^* = \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\right) \mathbf{B}\mathbf{H}^T(\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \left(\mathbf{H}^T+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\left(\mathbf{R}+\mathbf{H}\mathbf{B}\mathbf{H}^T\right) (\mathbf{H}\mathbf{B}\mathbf{H}^T+\mathbf{R})^{-1}\],

(016)
\[\mathbf{K}^* =\left( \mathbf{B}^{-1}+\mathbf{H}^T\mathbf{R}^{-1}\mathbf{H} \right)^{-1} \mathbf{H}^T\mathbf{R}^{-1}\].

Lire la suite...

- page 4 de 6 -